Gli avvocati potrebbero affrontare sanzioni "severe" per le false citazioni generate dall'intelligenza artificiale, avverte un tribunale del Regno Unito

L'Alta Corte d'Inghilterra e Galles afferma che gli avvocati devono adottare misure più incisive per impedire l'uso improprio dell'intelligenza artificiale nel loro lavoro.
In una sentenza che unisce due casi recenti, la giudice Victoria Sharp ha scritto che gli strumenti di intelligenza artificiale generativa come ChatGPT "non sono in grado di condurre ricerche legali affidabili".
"Tali strumenti possono produrre risposte apparentemente coerenti e plausibili alle richieste, ma queste risposte coerenti e plausibili potrebbero rivelarsi del tutto errate", ha scritto il giudice Sharp. "Le risposte potrebbero contenere affermazioni convincenti che sono semplicemente false".
Ciò non significa che gli avvocati non possano utilizzare l'intelligenza artificiale nelle loro ricerche, ma ha affermato che hanno il dovere professionale di "verificare l'accuratezza di tale ricerca facendo riferimento a fonti autorevoli, prima di utilizzarla nel corso del loro lavoro professionale".
La giudice Sharp ha suggerito che il crescente numero di casi in cui gli avvocati (compresi, nel caso degli Stati Uniti, gli avvocati che rappresentano le principali piattaforme di intelligenza artificiale ) hanno citato quelle che sembrano essere falsità generate dall'intelligenza artificiale suggerisce che "c'è ancora molto da fare per garantire che le linee guida vengano seguite e che gli avvocati rispettino i loro doveri nei confronti della corte", e ha affermato che la sua sentenza sarà inoltrata agli ordini professionali, tra cui il Bar Council e la Law Society.
In uno dei casi in questione, un avvocato che rappresentava un uomo che chiedeva il risarcimento dei danni contro due banche ha presentato un atto con 45 citazioni: 18 di quei casi non esistevano, mentre molti altri "non contenevano le citazioni che erano state loro attribuite, non supportavano le proposizioni per le quali erano state citate e non avevano alcuna attinenza con l'oggetto della domanda", ha affermato il giudice Sharp.
Nell'altro caso, un avvocato che rappresentava un uomo sfrattato dalla sua casa di Londra aveva depositato un ricorso in tribunale citando cinque casi apparentemente inesistenti. (L'avvocato ha negato di aver utilizzato l'intelligenza artificiale, sebbene abbia affermato che le citazioni potrebbero provenire da riassunti generati dall'intelligenza artificiale e apparsi su "Google o Safari"). Il giudice Sharp ha affermato che, sebbene il tribunale abbia deciso di non avviare un procedimento per oltraggio alla corte, questo "non costituisce un precedente".
Evento Techcrunch
Boston, MA | 15 luglio
REGISTRATI ORA"Gli avvocati che non rispettano i loro obblighi professionali in questo senso rischiano sanzioni severe", ha aggiunto.
Entrambi gli avvocati sono stati segnalati o si sono autodenunciati alle autorità di regolamentazione professionale. Il giudice Sharp ha osservato che quando gli avvocati non adempiono ai loro doveri nei confronti del tribunale, i poteri del tribunale spaziano dalla "pubblica ammonizione" all'imposizione delle spese processuali, al procedimento per oltraggio alla corte o persino al "deferimento alla polizia".
techcrunch